在日常生活中,從十多年前就流行過的詐騙電話,對方打來聽你的聲音是女的就喊「媽」,男的就喊「爸」,然後說他出事了,聲音聽起來像是被打很悲慘,還有不斷哭哭啼啼的聲音,不少人或你家長可能都接過這種電話。
雖然不少網路上說這種很容易識破,或者是情境錯誤就能一下看穿,像是兒子明明在旁邊,對面打來還自稱是兒子還在那邊哭夭。
不過,這種利用人性心理的伎倆還是可能奏效,記得連我爸接到後都跟我說,那人的聲音跟我好像,害他真的以為發生什麼事,急著打到上班公司確認是不是被綁架。心一慌、心一急,判斷就亂了。
這種騙術,未來可能需要更加注意,因為AI語音詐騙也有實例了,能夠利用AI模擬對方的聲音,再撥給給另一方執行詐騙。
在2019年8月30日華爾街日報的報導中,就指出已經有能源公司遇害。簡單來說,網路犯罪集團假冒了德國總公司CEO的聲音,然後打電話給英國子公司的CEO,要求馬上匯款給位於匈牙利的供應商,位於英國的CEO或許聽到熟悉的長官聲音,沒有懷疑,就很聽信的匯款。
網路釣魚(Phishing)的攻擊管道已逐漸從電子郵件擴大到人工智慧(AI)語音了。華爾街日報於上周報導,有一家英國能源公司的執行長誤以為接到德國總部執行長的電話,而被訛詐了22萬歐元(約24.3萬美元)。
哇~這種技術還真夠嚇人。
這種詐騙手法,其實跟所謂的商業電子郵件詐騙很像,不過一個是用電子郵件來指示,一個是用電話來指示,但是,電子郵件是非即時同步的溝通方式,而電話可是即時性的溝通。就像之前談到AI人臉濫用,也只不過是影片。
比起線上打字,這種以AI軟體偽裝成老板聲音來指示,雖然看不到對方,但聽的到對方立刻做出回應,一旦覺得是對方聲音,就比較不容易產生懷疑。
想想,這種手法不僅能假裝成企業老闆,財務長,業務聯繫窗口,也可能假裝成各式生意對象,或是上述喊爸喊媽的詐騙,這樣的事件其實已經在告誡我們,未來我們的生活上,對於這些聲音資訊需抱持更多警惕。
如同AI人臉濫用與換臉技術,這類AI語音詐騙,其實民眾都要有個概念,知道有這種風險的存在。